Das Bundesamt für Statistik stellt wöchentlich erfasste Todesfallzahlen zur Verfügung.
Todesfälle nach Fünf-Jahres-Altersgruppe, Geschlecht, Woche und Kanton (CSV-Datei) - opendata.swiss
Die Todesfälle werden täglich den Zivilstandsämtern gemeldet und dem BFS im Rahmen der Statistik der natürlichen Bevölkerungsbewegung (BEVNAT) mitgeteilt. Der Melde- und Verarbeitungsprozess dauert in der Regel neun Tage.
Die Referenzbevölkerung ist die ständige Wohnbevölkerung, d.h. die Personen mit ständigem Wohnsitz in der Schweiz. Todesfälle von Personen mit Wohnsitz in der Schweiz, die sich im Ausland ereignet haben, werden gezählt.
Weitere Informationen :
Todesfälle nach Fünf-Jahres-Altersgruppe, Geschlecht, Woche und Kanton (CSV-Datei)
| TIME_PERIOD | GEO | AGE | SEX | Obs_status | Obs_value |
|---|---|---|---|---|---|
| 2020-W03 | CH | _T | T | P | 1400 |
| 2020-W04 | CH | _T | T | P | 1405 |
| 2020-W05 | CH | _T | T | P | 1415 |
| 2020-W06 | CH | _T | T | P | 1376 |
| 2020-W11 | CH | _T | T | P | 1376 |
| 2020-W12 | CH | _T | T | P | 1511 |
| 2020-W13 | CH | _T | T | P | 1595 |
| 2020-W14 | CH | _T | T | P | 1839 |
| 2020-W15 | CH | _T | T | P | 1606 |
| 2020-W16 | CH | _T | T | P | 1536 |
| Datum | Status | Text |
|---|---|---|
| 2020-06-17 03:17:46 | I | END Validierung |
| 2020-06-17 03:17:46 | E | Daten identisch |
| 2020-06-17 03:17:46 | I | new_todesfaelle_woche.csv gelesen 14959 Zeilen und 9 Spalten |
| 2020-06-17 03:17:46 | I | todesfaelle_woche.csv gelesen 14959 Zeilen und 9 Spalten |
| 2020-06-17 03:17:46 | I | START Validierung |
| 2020-06-17 03:17:46 | I | END Download |
| 2020-06-17 03:17:46 | I | |
| 2020-06-17 03:17:46 | I | ..CSV in ../data/new_todesfaelle_woche.csv geschrieben ! |
| 2020-06-17 03:17:44 | I | URL download lesen … |
| 2020-06-17 03:17:44 | I | ..API in ../data/api.csv geschrieben ! |
| 2020-06-17 03:17:43 | I | Rest API lesen … |
| 2020-06-17 03:17:41 | I | START Download |
| 2020-06-16 12:42:33 | I | END Validierung |
| 2020-06-16 12:42:33 | E | Daten identisch |
| 2020-06-16 12:42:33 | I | new_todesfaelle_woche.csv gelesen 14959 Zeilen und 9 Spalten |
| 2020-06-16 12:42:33 | I | todesfaelle_woche.csv gelesen 14959 Zeilen und 9 Spalten |
| 2020-06-16 12:42:33 | I | START Validierung |
| 2020-06-16 12:42:33 | I | END Download |
| 2020-06-16 12:42:33 | I | |
| 2020-06-16 12:42:33 | I | ..CSV in ../data/new_todesfaelle_woche.csv geschrieben ! |
| 2020-06-16 12:42:31 | I | URL download lesen … |
| 2020-06-16 12:42:31 | I | ..API in ../data/api.csv geschrieben ! |
| 2020-06-16 12:42:30 | I | Rest API lesen … |
| 2020-06-16 12:42:28 | I | START Download |
| 2020-06-16 12:22:41 | I | END Validierung |
| 2020-06-16 12:22:41 | E | Daten identisch |
| 2020-06-16 12:22:41 | I | new_todesfaelle_woche.csv gelesen 14959 Zeilen und 9 Spalten |
| 2020-06-16 12:22:41 | I | todesfaelle_woche.csv gelesen 14959 Zeilen und 9 Spalten |
| 2020-06-16 12:22:40 | I | START Validierung |
| 2020-06-16 12:22:40 | I | END Download |
| 2020-06-16 12:22:40 | I | |
| 2020-06-16 12:22:40 | I | ..CSV in ../data/new_todesfaelle_woche.csv geschrieben ! |
| 2020-06-16 12:22:38 | I | URL download lesen … |
| 2020-06-16 12:22:38 | I | ..API in ../data/api.csv geschrieben ! |
| 2020-06-16 12:22:37 | I | Rest API lesen … |
| 2020-06-16 12:22:36 | I | START Download |
| 2020-06-16 12:02:23 | I | END API |
| 2020-06-16 12:02:23 | I | badge auf disc |
| 2020-06-16 12:02:23 | I | restful auf disc |
| 2020-06-16 12:02:23 | I | START API |
| 2020-06-16 12:02:23 | I | END Validierung |
| 2020-06-16 12:02:23 | I | |
| 2020-06-16 12:02:23 | I | ..in ../data/diff.csv geschrieben ! |
| 2020-06-16 12:02:23 | I | Differenzen in 374 Zeilen mit 1023 Todesfällen .. |
| 2020-06-16 12:02:22 | I | ..2020-W22 mit 941 Todesfälle |
| 2020-06-16 12:02:22 | I | ..2020-W21 mit 29 Todesfälle |
| 2020-06-16 12:02:22 | I | ..2020-W20 mit 9 Todesfälle |
| 2020-06-16 12:02:22 | I | ..2020-W19 mit 5 Todesfälle |
| 2020-06-16 12:02:22 | I | ..2020-W18 mit 6 Todesfälle |
| 2020-06-16 12:02:22 | I | ..2020-W17 mit 3 Todesfälle |
| 2020-06-16 12:02:22 | I | ..2020-W16 mit 4 Todesfälle |
| 2020-06-16 12:02:22 | I | ..2020-W15 mit 2 Todesfälle |
| 2020-06-16 12:02:22 | I | Validatortabellen erstellt … |
| 2020-06-16 12:02:22 | I | Referenztabellen erstellt … |
| 2020-06-16 12:02:22 | I | new_todesfaelle_woche.csv gelesen 14959 Zeilen und 9 Spalten |
| 2020-06-16 12:02:22 | I | todesfaelle_woche.csv gelesen 741606 Zeilen und 9 Spalten |
| 2020-06-16 12:02:21 | I | START Validierung |
| 2020-06-16 12:02:21 | I | END Download |
| 2020-06-16 12:02:21 | I | |
| 2020-06-16 12:02:21 | I | ..CSV in ../data/new_todesfaelle_woche.csv geschrieben ! |
| 2020-06-16 12:02:19 | I | URL download lesen … |
| 2020-06-16 12:02:19 | I | ..API in ../data/api.csv geschrieben ! |
| 2020-06-16 12:02:18 | I | Rest API lesen … |
| 2020-06-16 12:02:17 | I | START Download |
| 2020-06-16 03:18:26 | I | END Download |
| 2020-06-16 03:18:26 | E | Error HTTP error 403. |
| 2020-06-16 03:18:26 | I | Rest API lesen … |
| 2020-06-16 03:18:26 | I | START Download |
| 2020-06-13 03:18:28 | I | END Download |
| 2020-06-13 03:18:28 | E | Error HTTP error 403. |
| 2020-06-13 03:18:27 | I | Rest API lesen … |
| 2020-06-13 03:18:27 | I | START Download |
| 2020-06-12 03:18:22 | I | END Download |
| 2020-06-12 03:18:22 | E | Error HTTP error 403. |
| 2020-06-12 03:18:22 | I | Rest API lesen … |
| 2020-06-12 03:18:22 | I | START Download |
| 2020-06-11 03:18:32 | I | END Download |
| 2020-06-11 03:18:32 | E | Error HTTP error 403. |
| 2020-06-11 03:18:31 | I | Rest API lesen … |
| 2020-06-11 03:18:31 | I | START Download |
| 2020-06-10 03:18:49 | I | END Plausibilisierung |
| 2020-06-10 03:18:49 | I | ..in ../data/diff.csv geschrieben ! |
| 2020-06-10 03:18:49 | I | Differenzen in 418 Zeilen mit 1201 Todesfällen .. |
| 2020-06-10 03:18:48 | I | ..2020-W21 mit 1084 Todesfälle |
| 2020-06-10 03:18:48 | I | ..2020-W20 mit 39 Todesfälle |
| 2020-06-10 03:18:48 | I | ..2020-W19 mit 8 Todesfälle |
| 2020-06-10 03:18:48 | I | ..2020-W18 mit 12 Todesfälle |
| 2020-06-10 03:18:48 | I | ..2020-W17 mit 6 Todesfälle |
| 2020-06-10 03:18:48 | I | ..2020-W16 mit 7 Todesfälle |
| 2020-06-10 03:18:48 | I | ..2020-W15 mit 4 Todesfälle |
| 2020-06-10 03:18:48 | I | ..2020-W14 mit 5 Todesfälle |
| 2020-06-10 03:18:48 | I | Validatortabellen erstellt … |
| 2020-06-10 03:18:48 | I | Referenztabellen erstellt … |
| 2020-06-10 03:18:45 | I | START Plausibilisierung |
| 2020-06-10 03:18:45 | I | END Download |
| 2020-06-10 03:18:45 | I | ..CSV in ../data/neu_todesfaelle_woche.csv geschrieben ! |
| 2020-06-10 03:18:30 | I | URL download lesen … |
| 2020-06-10 03:18:30 | I | ..API in ../data/api.csv geschrieben ! |
| 2020-06-10 03:18:29 | I | Rest API lesen … |
| 2020-06-10 03:18:29 | I | START Download |
Metadatenzugriff API (JSON)
| subject | name | value | subject1 | name1 | value1 |
|---|---|---|---|---|---|
| 1 | display_name.en | Deaths per week by 5-year age group, sex and canton (CSV file) | 2 | display_name.en | Difference between downloads |
| 1 | created | 2020-06-10T09:52:16.283821 | 2 | created | 1592308943.19768 |
| 1 | format | CSV | 2 | format | CSV |
| 1 | start_date | 2019-12-30T01:00:00 | 2 | start_date | 2017-W22 |
| 1 | end_date | 2020-05-31T02:00:00 | 2 | end_date | 2020-W22 |
---
title: "Mortalitätsmonitoring Schweiz"
knit: (function(input_file, encoding) {
out_dir <- '_book';
if (!dir.exists(out_dir)) dir.create(out_dir);
rmarkdown::render(input_file,
encoding=encoding,
output_file=file.path(dirname(input_file), out_dir, 'index.html'))})
output:
flexdashboard::flex_dashboard:
orientation: rows
social: menu
source_code: embed
---
```{r setup, include=FALSE}
library(dygraphs) # needs xts
library(dplyr)
library(readr)
source('../R/badgelinks.R')
```
Row
---------------------------------------------------
### Zeitreihe 2000 bis 2020
```{r graph}
# read data with dyfun and convert to timeseries
source('momodyfun.R')
# select sorted timeseries by canton
ktlist <- c('CH','ZH','BE','VD','TI')
dft1 <- dyfun(quos(kanton %in% ktlist)) %>%
count(kt,date, wt=value, name='value') %>%
split(.$kt)
dft2 <- dft1[ktlist] # sort the list
tslist <- lapply(dft2, function(x) {
xts::xts(x$value, order.by = x$date)
})
tss <- do.call(cbind,tslist)
dygraph(tss, main = "Todesfälle Schweiz") %>%
dyOptions(stepPlot = T) %>%
dyHighlight(highlightCircleSize = 5,
highlightSeriesBackgroundAlpha = 0.2,
hideOnMouseOut = FALSE) %>%
dyRangeSelector(dateWindow = c("2013-07-01", as.character(last(dft1[[1]]$date)))) %>%
dyEvent("2020-3-17", "Lockdown", labelLoc = "bottom")
```
Row {.tabset .tabset-fade}
---------------------------------------------------
### Dokumentation
`r badge`
**Das Bundesamt für Statistik stellt wöchentlich erfasste Todesfallzahlen zur Verfügung.**
Todesfälle nach Fünf-Jahres-Altersgruppe, Geschlecht, Woche und Kanton (CSV-Datei) - [opendata.swiss](https://opendata.swiss/de/dataset?q=%22Todesfälle+nach+Fünf-Jahres-Altersgruppe%22+Kanton)
Die Todesfälle werden täglich den Zivilstandsämtern gemeldet und dem BFS im Rahmen der Statistik der natürlichen Bevölkerungsbewegung (BEVNAT) mitgeteilt. Der Melde- und Verarbeitungsprozess dauert in der Regel neun Tage.
Die Referenzbevölkerung ist die ständige Wohnbevölkerung, d.h. die Personen mit ständigem Wohnsitz in der Schweiz. Todesfälle von Personen mit Wohnsitz in der Schweiz, die sich im Ausland ereignet haben, werden gezählt.
Weitere Informationen :
- Bundesamt für Statistik: [Todesfälle](https://www.bfs.admin.ch/bfs/de/home/statistiken/bevoelkerung/geburten-todesfaelle/todesfaelle.html)
- Bundesamt für Statistik: [Sterblichkeit, Todesursachen](https://www.bfs.admin.ch/bfs/de/home/statistiken/gesundheit/gesundheitszustand/sterblichkeit-todesursachen.html)
- Bundesamt für Statistik: [Mortalitätsmonitoring (MOMO)](https://www.experimental.bfs.admin.ch/expstat/de/home/innovative-methoden/momo.html)
- Weltgesundheitsorganisation (WHO): [EUROMOMO](https://www.euromomo.eu/graphs-and-maps/)
### Todesfälle Schweiz (Auszug)
Todesfälle nach Fünf-Jahres-Altersgruppe, Geschlecht, Woche und Kanton (CSV-Datei)
```{r data}
read_csv2('../data/todesfaelle_woche.csv') %>%
top_n(10) %>%
knitr::kable()
```
### Wöchentlicher Nachtrag
```{r diff}
dfdiff <- read_csv2('../data/diff.csv') %>% top_n(300)
DT::datatable(dfdiff, class = 'cell-border stripe')
```
### Logdatei
```{r log}
read_csv2('../data/log.csv', col_names = F) %>%
purrr::map_df(rev) %>%
top_n(100) %>%
knitr::kable(col.names = c('Datum','Status','Text'))
```
### Zusätzliche Informationen
Metadatenzugriff [API (JSON)](https://norman-ds.github.io/momo/json.json)
```{r api, echo = FALSE, results='asis'}
jsonlite::read_json('../data/json.json', simplifyVector = T) %>%
mutate(subject = 1:n()) %>%
select(-download_url) %>%
tidyr::pivot_longer(-subject) %>%
split(.$subject) %>%
bind_cols() %>%
knitr::kable()
```